深度神经网络是一个很好的任务解决者,但是很难理解其操作。人们对如何形成有关其运作的解释有不同的想法。我们从一个新的角度来看这个问题,在该问题中,通过量化了用于解决以前任务的信息之外,还量化了多少以前未使用的信息来综合任务解决的解释。首先,在学习了几个任务之后,网络将获取与每个任务相关的几个信息分区。然后,我们建议该网络学习最小的信息分区,这些信息分区已补充以前学习的信息分区以更准确地表示输入。此额外的分区与以前任务中未使用的未概念的信息相关联。我们设法确定使用了哪些未概念的信息并量化了金额。为了解释网络如何解决新任务,我们量化了从每个分区中提取多少信息的元信息。我们使用各种信息瓶颈技术实现此框架。我们使用MNIST和CLEVR数据集测试框架。该框架被证明能够以元信息的形式构成信息分区并综合经验依赖性解释。该系统通过将未概念的信息分区的一部分转换为与任务相关的分区,从而逐步改善了对新体验的解释分辨率。它还可以通过对以前未概念的信息来解决新任务所需的以前的未感知信息的一部分来提供视觉解释。
translated by 谷歌翻译
Discriminativeness is a desirable feature of image captions: captions should describe the characteristic details of input images. However, recent high-performing captioning models, which are trained with reinforcement learning (RL), tend to generate overly generic captions despite their high performance in various other criteria. First, we investigate the cause of the unexpectedly low discriminativeness and show that RL has a deeply rooted side effect of limiting the output words to high-frequency words. The limited vocabulary is a severe bottleneck for discriminativeness as it is difficult for a model to describe the details beyond its vocabulary. Then, based on this identification of the bottleneck, we drastically recast discriminative image captioning as a much simpler task of encouraging low-frequency word generation. Hinted by long-tail classification and debiasing methods, we propose methods that easily switch off-the-shelf RL models to discriminativeness-aware models with only a single-epoch fine-tuning on the part of the parameters. Extensive experiments demonstrate that our methods significantly enhance the discriminativeness of off-the-shelf RL models and even outperform previous discriminativeness-aware methods with much smaller computational costs. Detailed analysis and human evaluation also verify that our methods boost the discriminativeness without sacrificing the overall quality of captions.
translated by 谷歌翻译
多语言神经机器翻译可以在训练过程中翻译看不见的语言对,即零弹性翻译。但是,零拍的翻译总是不稳定的。尽管先前的作品将不稳定归因于中心语言的统治,例如英语,我们以非中心语言的严格依赖性来补充这种观点。在这项工作中,我们通过适应非中心语言并将共享信息和特定于语言的信息组合来抵消零拍的不稳定性,从而提出了一种简单,轻巧但有效的特定语言建模方法。在IWSLT17,Europarl,TED Talks和Opus-100数据集上进行变压器的实验表明,我们的方法不仅在中心数据条件下的性能优于强基础,而且还可以轻松拟合非中心数据条件。通过进一步研究层归因,我们表明我们所提出的方法可以将耦合表示形式朝正确的方向解散。
translated by 谷歌翻译
对于知识图形完成,存在两种主要类型的预测模型:基于图形嵌入的一个,以及基于关系路径规则诱导。它们具有不同的优缺点。为了利用这两种类型,最近提出了混合模型。其中一个混合模型,uniker,交替通过关系路径规则增强培训数据并列进嵌入模型。尽管其预测准确性很高,但它不充分利用关系路径规则,因为它忽略了低置信度规则,以保持增强数据的质量。为了缓解此限制,我们通过关系路径规则和基于置信性的增强数据提出转换数据增强。结果和分析表明,我们所提出的方法通过增强包括与它们类似的真实答案或实体的数据来有效提高嵌入模型的性能。
translated by 谷歌翻译
循环不变的合成是程序验证的基础。由于问题的不可证实,因此不变合成的工具必然使用启发式方法。尽管人们普遍认为,启发式方法的设计对于合成器的性能至关重要,但启发式方法通常是根据经验和直觉的开发人员来设计的,有时是以\ emph {Ad-Hoc}方式进行的。在这项工作中,我们提出了一种系统地学习基于模板的反例引导的归纳合成(CEGIS)的方法,并通过增强学习。作为具体示例,我们在PCSAT之上实现了该方法,PCSAT是基于基于模板的CEGIS的不变合成器。实验表明,在我们的框架所学到的启发式方法的指导下,PCSAT不仅优于现有的基于CEGIS的最先进的求解器,例如Hoice和Neural Solver Code2Inv,而且比基于非CEGIS的求解器(例如基于非首席执行官)具有略有优势线性约束角(CHC)求解中的Eldarica和垫片。
translated by 谷歌翻译